【深度学习】模型压缩(MobileNet系列、蒸馏、量化) | 您所在的位置:网站首页 › 模型压缩 量化 › 【深度学习】模型压缩(MobileNet系列、蒸馏、量化) |
深度学习模型压缩(MobileNet系列、蒸馏、量化)
模型要在边缘端计算,需要具有较小的内存、计算和带宽需求,一般通过设计轻量化的架构或者对模型进行蒸馏、剪枝和量化等来减少参数,获取高效的模型。 本文简要介绍轻量化架构(以 MobileNet V1 和 MobileNet V2 为例)、蒸馏和量化方法。 1.轻量架构(Light-weight architecture)从卷积核、特殊层和网络结构等方面设计轻量网络 以MobileNet为例 MobileNet V1[1] Depthwise Conv![]() ![]() ![]() ![]() ![]() 类似的工作还有ShuffleNet V1, ShuffleNet V2, MobileNetV3以及GhostNet等 2. 蒸馏(Distillation)知识蒸馏(Knowledge Distilling)是模型压缩的一种方法,是指利用已经训练的一个较复杂的Teacher模型,指导一个较轻量的Student模型训练,从而在减小模型大小和计算资源的同时,尽量保持原Teacher模型的准确率的方法。 这种方法受到大家的注意,主要是由于Hinton的论文Distilling the Knowledge in a Neural Network |
今日新闻 |
推荐新闻 |
专题文章 |
CopyRight 2018-2019 实验室设备网 版权所有 |